AMD Preps Qack-Procale Bản năng MI450X IF128 cho bản phát hành năm 2026
AMD dự kiến sẽ ra mắt hai bộ tăng tốc Instinct đầu tiên vào năm 2026 để cạnh tranh với Nvidia VR300 NVL144, theo báo cáo của SemiAnalysis. Chúng có tên là Instinct MI450X IF64 và Instinct MI450X IF128, được thiết kế cho triển khai AI. Nếu thành công, chúng có thể thay đổi landscape phần cứng AI theo thời gian. Mặc dù các GPU AI và HPC MI300 của AMD rất mạnh trên lý thuyết, nhưng không thể cạnh tranh với giải pháp rack-scale GB200 NVL72 của Nvidia về khả năng mở rộng hiệu suất, vì kích thước tối đa của chúng chỉ là tám bộ xử lý.
Năm tới, AMD sẽ ra mắt các giải pháp Instinct MI450X IF64 và MI450X IF128 với 64 và 128 GPU, nhằm cạnh tranh với Nvidias VR200 NVL144 có 72 GPU. AMD có thể tách các GPU AI hàng đầu thành các dòng chuyên biệt cho AI và HPC, và thêm UALink — các mẫu MI400 sẽ theo hướng khác. Sự hạn chế về khả năng mở rộng của MI325X ảnh hưởng đến doanh số của AMD. Các GPU chuyên nghiệp RDNA 3 của AMD với 48GB có thể vượt trội hơn so với thẻ 24GB của Nvidia trong AI. Về lý thuyết, MI450X IF128 có thể có lợi thế hơn so với VR200 NVL144 của Nvidia.
Tuy nhiên, độ phức tạp và các thách thức kỹ thuật có thể hạn chế thành công ban đầu của nó. Instinct MI450X IF128 sẽ là hệ thống đầu tiên của AMD hỗ trợ nhiều bộ xử lý AI trên hai giá đỡ thông qua Infinity Fabric, mở rộng qua Ethernet. Hệ thống này sẽ sử dụng 16 máy chủ 1U, mỗi máy chủ chạy một CPU AMD EPYC Venice với bốn GPU Instinct MI450X, mỗi GPU được trang bị bộ nhớ LPDDR riêng và một SSD PCIe x4. Mỗi trong số 128 GPU sẽ có hơn 1.
Hệ thống có băng thông nội bộ một chiều 8 TBs cho giao tiếp giữa các GPU trong cùng một miền mở rộng, cho phép tạo ra các cụm tính toán lớn hơn so với những gì AMD đã hỗ trợ trước đây. Để giao tiếp ngoài nhóm GPU địa phương, hệ thống sẽ bao gồm tối đa ba thẻ mạng 800GbE Pensando cho mỗi GPU, cung cấp tổng băng thông mạng ra ngoài là 2.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Mỗi thiết bị có thể đạt 4 Tbs thông qua PCIe. Một cấu hình bổ sung sẽ cho phép mỗi GPU sử dụng hai thẻ mạng 800GbE kết nối qua PCIe, nhưng không thể sử dụng hết băng thông do các liên kết PCIe 5.0 không đủ hỗ trợ hai thẻ mạng tốc độ cao. Khác với hệ thống GB200 của Nvidia sử dụng cáp quang chủ động, AMD sẽ áp dụng cách kết nối bằng dây đồng thụ động đơn giản hơn.
Chiến lược này có thể giúp giảm chi phí hệ thống và tiêu thụ điện năng, nhưng có thể bị giới hạn bởi độ tin cậy tín hiệu hoặc độ dài cáp. Ngoài ra, do tính phức tạp của hệ thống, việc sản xuất và triển khai có thể gặp trì hoãn hoặc vấn đề kỹ thuật. Để đối phó với rủi ro này, AMD đang chuẩn bị một phiên bản nhỏ hơn của kiến trúc này có tên là MI450X IF64. Phiên bản này sẽ giới hạn trong một giá đỡ đơn và sử dụng thiết kế kết nối đơn giản hơn, hứa hẹn mang lại quá trình triển khai dự đoán được hơn.
Nếu AMD thực hiện thành công kiến trúc này, họ có thể cải thiện vị thế trong thị trường tính toán AI, đặc biệt là hệ thống suy diễn AI. Tuy nhiên, việc liệu họ có thể thách thức Nvidia hay không vẫn còn phải chờ xem. Hãy theo dõi Toms Hardware trên Google News để cập nhật tin tức, phân tích và đánh giá mới nhất. Đừng quên nhấn nút Theo dõi.
Nguồn: www.tomshardware.com/tech-industry/artificial-intelligence/amd-preps-rack-scale-instinct-mi450x-if128-with-128-gpus-to-challenge-nvidias-vr200-nvl144-in-2026